Faut-il avoir peur de l’intelligence artificielle ?

Faut-il avoir peur de l’intelligence artificielle ?



Ce 8 juin, à l’occasion du festival du numérique Futur en Seine, nous avons eu la chance d’assister à une série de conférences concernant l’intelligence artificielle. Méconnue il y a une dizaine d’années, cette notion existe pourtant depuis plus de 70 ans. Focus sur ce phénomène qui effraie autant qu’il fascine.

Un marché de 700 millions d’euros, multiplié par 10 d’ici 2020



Frédérique Vidal, Ministre de l’Enseignement supérieur, de la Recherche et de l’Innovation (ex-présidente de l’Université Sophia Antipolis) garantit que la France possède environ 5000 excellents experts en IA, spécialisés dans différentes disciplines. Il est impératif de travailler sur une filière complète pour alimenter l’innovation dans le futur. « Mais le passage du concept à la preuve du concept pour accéder au marché et vendre un produit, c’est notre maillon faible. » Pour se perfectionner, recherche et formation travaillent main dans la main : plus de 100 centres de formation proposent désormais des cursus IA. En mixant les disciplines mathématiques et sociologie, ils tentent de répondre à une problématique commune : comment va-t-on accepter ces nouvelles formes de technologies du futur ?

L’IA est la cible d’une multitude de fantasmes



Le terme d’intelligence artificielle a été introduit pour la toute première fois en 1956 par deux jeunes mathématiciens explique Jean-Gabriel Ganascia, professeur à l’Université Pierre-et-Marie-Curie et spécialiste de l’IA. En découvrant les premiers ordinateurs qui avaient tout juste 8 ans, ils ont eu l’idée d’étudier l’intelligence avec ces machines. Leur but était de décomposer l’intelligence en fonctions élémentaires : le raisonnement, la reconnaissance des objets, le langage…

« C’est ce qui a amené au web que l’on connaît : un couplage des réseaux de communication (des tuyaux) avec de l’hypertexte. Aujourd’hui, beaucoup de choses sont liées à l’IA : les moteurs de recherche, les virus, les voitures autonomes, la reconnaissance des visages et des empreintes ».

Pourquoi avons-nous l’impression que l’IA est la dernière innovation du siècle, alors qu’elle a plus de 60 ans ?



La première chose qui a changé c’est que nous vivons dans une société 100 % numérique : tout est numérisé, les échanges, les images, les process. Et l’enjeu très précieux maintenant c’est l’exploitation de toutes ces informations.

« L’essence de l’IA, c’est la data. Aujourd’hui, la data est aussi précieuse pour les entreprises que le pétrole. Si on arrive à bien l’extraire, cela peut être très fructueux, et on peut l’utiliser pour divers projets. Mais la data est surtout précieuse pour améliorer l’expérience client. C’est ce qu’ont fait Airbnb, Uber … Ils ont étudié la data de leur cible, et ont adapté leur service » justifie Nicolas Sekkaki, président d’IBM France.

Le deep learning dans notre quotidien



La méthode phare de l’IA aujourd’hui c’est le deep learning. C’est une technique d’apprentissage qui permet à un programme de reconnaître le contenu d’une image ou de comprendre le langage. C’est aujourd’hui la méthode phare de l’IA : toutes les grandes entreprises tech s’y mettent (Google, IBM, Microsoft, Amazon, Adobe ou encore Baidu y investissent des fortunes).

Par exemple Google arrive aujourd’hui à reconnaître les visages parmi 200 millions d’images à 99,67 %. De leur côté, les voitures autonomes arrivent à détecter la route, les obstacles. Aussi, si on ne cesse de demander l’avis et les goûts des internautes sur le web, c’est parce qu’on est capable de faire de la publicité adaptative en fonction des comportements observés.

Est-ce nouveau ?



La réponse est non. En 1947, Walter Pitts et Warren McCulloch sont les premiers à avoir essayé de reproduire le mécanisme de nos cerveaux sur des machines. Cela a commencé avec des exercices simples comme la reconnaissance de formes grâce à plusieurs couches de synapses. Il y eu ensuite plus de 70 ans de travail là-dessus… Onze ans plus tard, un algorithme permettant d’établir les poids fut créé par Marvin Minsky. Il passa sa vie à défendre l’idée que l’intelligence artificielle doit utiliser des approches multiples, notamment pour la représentation des connaissances, au lieu de se limiter à une seule approche qui serait censée être la meilleure. Les systèmes doivent disposer de « gestionnaires », capables de sélectionner les meilleures solutions à un problème donné.

Mais l’un des pionniers du deep learning c’est Yann Le Cun. Aujourd’hui à la tête du nouveau laboratoire d’IA de Facebook installé à Paris, il prône la thèse selon laquelle l’intelligence artificielle n’est pas un équivalent du cerveau humain car les caractéristiques biologiques entre humain et robot diffèrent fondamentalement.

Les limites de l’IA



L’intelligence artificielle est un progrès technologique considérable. Mais comme toutes les évolutions massives, elle fait peur à beaucoup de gens. En France par exemple, nous sommes obsédés par le fait que les machines puissent un jour voler nos emplois. Combien d’études sont sorties pour chiffrer le nombre de postes qui seraient en proie à disparaître à leur détriment ?

Il est intéressant de constater que cette vision n’est absolument pas partagée par les Japonais. Leur population étant vieillissante, ils peinent de plus en plus à trouver de la main d’œuvre. Ils se disent donc que les machines les aideront à maintenir leur productivité.

La théorie de la singularité technologique



La théorie de la singularité, c’est la théorie selon laquelle l’IA serait en train de dépasser l’intelligence humaine. Des hommes puissants comme Bill Gates, Stephen Hawking ou encore Elon Musk financent l’université de la singularité. Ils s’accordent pour dire que l’on pourra bientôt hybrider notre cerveau pour devenir immortels, voire des super-héros. Leur théorie se base sur deux arguments : la loi de Moore et l’apprentissage automatique des machines. La loi de Gordon Moore (le fondateur d’Intel) explique que la puissance des processeurs double tous les 18 mois (tous les ans à l’origine). Nos ordinateurs seraient de plus en plus puissants et de plus en plus rapidement. Les adeptes de la théorie de la singularité pensent que les machines auront un tel rythme de calcul qu’elles elles seront plus intelligentes que nous et prendront le pouvoir.

« Mais on ne sait pas si la loi Moore va perdurer dans le temps. Et quand bien même elle continuerait, l’intelligence va au-delà d’une fréquence de calcul. Les machines n’acquerront jamais de conscience. » Concernant l’apprentissage automatique des machines, là encore la théorie n’est pas réalisable. Le propre de l’apprentissage c’est d’établir des notions nouvelles qui renversent les précédentes. Or les machines n’apprendront jamais toutes seules et ne pourront établir toutes seules ces grandes révolutions.

Automatisera, automatisera pas ?



Il y a encore bien d’autres raisons pour lesquelles l’intelligence artificielle ne pourra jamais remplacer l’intelligence humaine. Cela amène à se poser la question de ce qui pourra être remplacé par des machines et ce qui ne le sera jamais.

Dans son ouvrage « La condition de l’homme moderne », Hannah Arendt distingue plusieurs aspects de la vie active d’un homme : le travail, l’œuvre, et l’action. Si les machines peuvent effectuer certain type de travail comme le travail à la chaîne ou les activités intellectuelles répétitives. Pour d’autres métiers comme les médecins, les journalistes par exemple, il y a besoin de compétences humaines. C’est également le cas pour « l’œuvre » à savoir l’art, la réalisation : « il est impossible de traduire une poésie par exemple d’une langue à l’autre alors imaginez une machine ? » Concernant l’action, la politique et les technologies d’information évoluent, ce qui amène à changer les notions même de souveraineté. Mais nous n’aurons jamais un président de la république robot. « Il n’y a pas lieu d’être inquiet, mais il faut regarder l’avenir dans les yeux ; il y a des transformations majeures qui vont affecter nos sociétés » conclut Jean-Gabriel Ganascia.